24 - Diskretisierungs- und Optimierungsmethoden [ID:3122]
50 von 633 angezeigt

Dieser Audiobeitrag wird von der Universität Erlangen-Nürnberg präsentiert.

So, guten Morgen zusammen. Ich hatte ja letztes Mal gesagt, ich weiß nicht so recht, wie die

Vorlesung weitergehen soll. Sozusagen ein Gedenk meiner schlechten Vorbereitung. Ja,

was könnten wir jetzt noch machen? Wir könnten natürlich uns enorm um diese ganze Frage der

quasi der Variablen-Metrik-Verfahren kümmern. Das ist sehr unbefriedigend. Wir haben eine Update-Formel

gesehen. Wir haben den Namen einer anderen gehört. Die sind vom Himmel gefallen. Okay,

da könnten wir gut jetzt den ganzen Rest der Vorlesung uns mit beschäftigen. Ich bin mir

nur nicht sicher, ob wir dann so schrecklich viel davon haben, denn entweder sie werden sich

nochmal verstärkt mit Optimierung beschäftigen. Eine der vielen Vorlesungen, die im Department

angeboten werden, dann werden sie das nochmal viel ausführlicher hören. Und wenn das nicht ist,

wenn sie sozusagen gegebenenfalls nur als Nutzer solchen Verfahren gegenüberstehen,

so wie ich das tue, obwohl ich mich in meiner Jugend extrem viel mit Optimierung beschäftigt

habe, da probiert man halt einfach aus. Dann nimmt man mal den einen oder anderen Update und schaut,

was so passiert. Und egal, was man vorher da an Theorie gesehen hat oder nicht. Deswegen dachte

ich, naja, vielleicht ist es etwas sinnvoller, doch das Spektrum ein bisschen zu weiten und auch

Nebenbedingungen mit aufzunehmen. Dann wäre die Optimierung eigentlich erst richtig interessant

und fängt an, Optimierung zu werden, denn bisher haben wir gesehen, im Wesentlichen sind das nicht

linare Gleichungssysteme, was wir machen. Wir machen Verfahren zu nicht linaren Gleichungssystemen.

Zumindestens auf der einen Schiene, die sich letztlich darum kümmert, stationäre Punkte zu

finden, setzt natürlich die Differenzierbarkeit voraus. Die andere Schiene, die wir angesprochen

haben, sind Varianten von Abstiegsverfahren und da tun wir uns ein bisschen schwer,

das jetzt auf den eingeschränkten Fall zu übertragen. Das würde ja bedeuten, wir müssen

sicherstellen, dass wir in dieser Einschränkungsmenge bleiben. Also wie wäre das allgemeine Bild?

Was wir jetzt haben, wäre Optimierung ohne Nebenbedingungen, auf Deutsch nicht restringierte Optimierung.

Das heißt, wir haben einfach ein Funktional, minimiere f von x, x aus dem Rn. Das war die

Fragestellung. Restringierte Optimierung ist nun leicht hingeschrieben, aber in dieser allgemeinen

Form kann man relativ wenig mit anfangen. Das heißt, wir versuchen wieder ein Funktional zu

minimieren. Beispiele kennen wir ja auch schon in Form der Linearenoptimierung und hier haben

wir ganz allgemein jetzt eine zulässige Menge, ad vi admissible aus dem Rn. Gut, auf diesem

allgemeinen Level kann man mit dem Problem so gut wie nichts anfangen. Jetzt muss man

diese Einschränkungsmenge beschreiben. Typische Formen wären die nicht so schwierigen, das

sind die Gleichungs, das kennen Sie schon aus der Linearenoptimierung, die Gleichungseinschränkungen

oder die Gleichungsnebenbedingungen. Sagen wir mal, wir haben Funktionen gi von x gleich

und wenn ich es in dieser allgemeinen Form schreibe, kann ich ja auch gleich Null schreiben,

weil ich irgendeine Konstante auch in das gi schreiben kann. Sagen wir mal, i von 1

bis m1. Die andere Variante, auch schon bekannt aus der Linearenoptimierung, wären die Ungleichungseinschränkungen.

Nehmen wir die Funktionen mal hi, dann hätten wir Bedingungen des Typs hi kleiner gleich

Null oder größer gleich Null, ist egal, auf was man sich jetzt einigt. In dieser Allgemeinheit,

das wäre sozusagen die das, das und das, das wäre so eine allgemeine Formulierung eines

Glatten, also eines Differenzierbaren. Man braucht dann die entsprechende Glattheit auch

dieser Funktionen, Optimierungsproblems im Rn, wofür man dann erst einmal Theorie machen

könnte und auf diese Theorie gegebenenfalls aufbauen verfahren. Was heißt jetzt Theorie?

Was war unsere Theorie bis jetzt? Unsere Theorie bis jetzt war sozusagen der Ursumpf der Kurvendiskussion,

wenn ein Minimum vorliegt, wenn ein lokales Minimum vorliegt, dann ist der Gradient gleich

Null. Wir haben schon im Falle von linearen Gleichungsnebenbedingungen gesehen, das lässt

sich erweitern. Im Fall von linearen Gleichungsnebenbedingungen kommt dann ein Lagrange-Multiplikator ins Spiel

und wir haben weiterhin ein Gleichungssystem zu lösen. Genau auf Bedingungen dieser Art

läuft das auch in diesem allgemeinen Rahmen hinaus. Das sind aber dann alle immer nur

natürlich notwendige Optimalitätsbedingungen, genauso wie natürlich Gradient f und x gleich

Null nur eine notwendige Minimalitätsbedingung ist. Das heißt also, wenn von notwendigen

Zugänglich über

Offener Zugang

Dauer

01:24:43 Min

Aufnahmedatum

2013-07-09

Hochgeladen am

2013-08-08 01:01:14

Sprache

de-DE

Einbetten
Wordpress FAU Plugin
iFrame
Teilen